home *** CD-ROM | disk | FTP | other *** search
/ Giga Games 1 / Giga Games.iso / net / vir_real / papers / wells.ovr < prev    next >
Encoding:
Text File  |  1993-06-20  |  15.1 KB  |  279 lines

  1. 91-04/VR.overview
  2. From: Maxwell Wells <MWELLS@FALCON.AAMRL.WPAFB.AF.MIL>
  3. Subject: an introduction to VR
  4. Date: Wed, 10 Apr 1991 16:59 EST
  5.  
  6.  
  7. The following are some excerpts from a report put together as a primer for
  8. "management".  I post it in response to the requests for primers which have
  9. appeared recently.  I hope it is of use to someone.  I work as a contract
  10. researcher at the Armstrong Aerospace Medical Research Laboratory, hence the
  11. Air Force bias.  If I have neglected anyone or any product, it is through 
  12. ignorance rather than malice.  I would appreciate any comments and information 
  13. which would help me to make it better. 
  14.  
  15. [Moderator(Mark): This looks like it would be a great start for an FAQ
  16.  posting.  After whatever improvements are made to it, perhaps I could
  17.  add it to the archive and post it monthly-- what do you think?  Let me
  18.  (madsax@milton.u.washington.edu) know.]
  19.  
  20. Maxwell Wells 
  21. Senior Scientist 
  22. Logicon Technical Services Inc 
  23. P.O. Box 317258
  24. Dayton, OH 45431 
  25. Tel 513 255 5215 
  26. MWELLS@FALCON.AAMRL.WPAFB.AF.MIL
  27.  
  28.  
  29.         1.0     INTRODUCTION AND BACKGROUND 
  30.  
  31. Virtual reality may be considered to have been born in the middle 1960s, based
  32. on the work of Ivan Sutherland from the University of Utah.  A paper, published
  33. in 1972 by D.L Vickers, one of Sutherland's colleagues ,describes "an
  34. interactive computer graphics system utilizing a head-mounted display and
  35. wand.  The display, worn like a pair of eyeglasses, gives an illusion to the
  36. observer that he is surrounded by three-dimensional, computer-generated
  37. objects."  The three components of a virtual reality system are: a DISPLAY, a
  38. TRANSDUCER and an IMAGE GENERATOR.  The display used in Vickers' early work
  39. consisted of two cathode ray tubes (CRTs).  The head movement transducer
  40. consisted of six rotary pulse generators attached to a telescoping steel
  41. shaft which was connected to the head-mounted display.  The third component,
  42. the image generator was a motley collection of a PDP-10 computer, a matrix
  43. multiplier, a clipping divider and a vector generator. 
  44.  
  45.  
  46. Developments in relevant technology occurred over the next 10 years, driven by
  47. a variety of sources.  Small electromagnetic CRTs were produced by companies
  48. such as Thorn, Thomas and Hughes with military funding (AAMRl was instrumental
  49. in providing some of this funding).  A strong market for consumer electronics
  50. resulted in the production of small flat-panel displays.  A military
  51. requirement for helmet-mounted sights drove the development of head movement
  52. transducers, primarily by Honeywell and Polhemus. The Honeywell approach used
  53. helmet-mounted IR sources, a set of cockpit-mounted IR sensors and a
  54. triangulation technique.  Polhemus produced the Spasyn system, in which a
  55. radiated magnetic field produced a current in three orthogonal coils mounted
  56. on the helmet.  The personal computing revolution in the 70s and 80s made
  57. available fast, cheap, digital image generation. 
  58.  
  59.         2.0     CURRENT STATE OF TECHNOLOGY 
  60.  
  61. This section will define the requirements and summarize the state of the art
  62. of each component. 
  63.  
  64.                 2.1.    DISPLAYS 
  65. Using the verb display to mean "to present information to the eye or the mind", 
  66. the noun display may be interpreted to mean a device which presents 
  67. information, irrespective of the sensory modality.  Thus, reference will be 
  68. made to visual, auditory and tactile displays (there have been limited 
  69. attempts to produce displays for the senses of taste and smell). 
  70.  
  71. Visual displays 
  72.  
  73. Most effort and success have been associated with visual displays.  It is now
  74. possible to purchase, off the shelf, monochrome electromagnetic CRTs as small
  75. as 18 mm in diameter, with 875 line resolution, but at a high price (>$5k).
  76. Flat-panel color LCD displays are produced in large quantities for consumer
  77. electronics products (eg the Sony Watchman), and at low prices (less than
  78. $100).  CRTs have the advantages of small display area and high light output.
  79. This makes them suitable for display designs with folded optical paths.  LCD
  80. displays provide a flat-panel display of low weight and optional color, but
  81. with poor resolution and relatively low light output. Several attempts have
  82. been made to produce a cheap head-mounted display using LCD technology.
  83. Successful prototypes have been produced by NASA (using both LCD technology
  84. and cheap CRTs from a video camera) and The Air Force Institute of Technology
  85. (AFIT).  Accounts of home produced systems occur regularly on the network. The
  86. company VPL markets the "EyePhone", which consists of two color LCD screens
  87. mounted in front of the eyes with lenses and prisms to produce a binocular
  88. image at optical infinity. 
  89.  
  90. Systems with high resolution use miniature CRTs as image sources.  Perhaps the
  91. most capable of such systems is the Visually Coupled Airborne Systems
  92. Simulator (VCASS) at the Armstrong Aerospace Medical Research Laboratory.
  93. VCASS consists of two 18mm CRTs and pancake window optics, providing a
  94. binocular FOV 120 deg wide and 60 deg high.  Produced with military funding,
  95. no expense was spared to assemble a system using (10 years ago) state of the
  96. art technology.  VCASS includes high bandwidth video amplifiers for raster and
  97. direct draw image production, programmable analog circuits for pre-distorting
  98. the images (to account of optical distortion in the light path), internal sync
  99. generators (to drive the 1000 line tubes) and numerous other options.
  100. Helmet-mounted displays have also been produced by Honeywell, for use in the
  101. Apache attack helicopter, GEC, for use in various British research efforts and
  102. in the F-16 night attack system "Falcon Eye".  Ferranti (now part of GEC) and
  103. Kaiser Electronics have also produced successful devices. 
  104.  
  105.  
  106. Auditory displays. 
  107.  
  108. Headphones, the technology necessary to couple the ears to a sound source,
  109. have been getting smaller, lighter and better.  An auditory display for use in
  110. virtual reality requires a headphone and a simulated sound source.  The
  111. current state of technology of sound image generators will be described in
  112. more detail under the heading "image generators".  Most interest has been
  113. focussed on 3D sound generators, for simulating the spatial location of a
  114. sound source.   However, consideration has been given to sound quality and
  115. content, for producing, for example, auditory icons (sound of a gas tank being
  116. sucked dry) or a realistic computer generated voice. 
  117.  
  118.  
  119. Tactile displays 
  120.  
  121. Although some effort has gone into tactile displays, much remains to be done.
  122. Stick shakers (to indicate an impending stall in an aircraft) and shaped knobs
  123. (to aid control recognition) have met with some success, but person-mounted
  124. tactile displays have not. AAMRL experimented with pneumatic bladders on the
  125. ends of the fingers, for indicating the surface of virtual objects, but the
  126. lags in the system limited its utility.  There have been some attempts to use
  127. vibro-tactile stimulation to simulate touch, but with limited success.  The
  128. most successful method to date for giving tactile feedback has been with
  129. mechanical exoskeletons which give feedback of, for example, molecular
  130. repulsion in systems designed to aid in the synthesis of molecules. 
  131.  
  132.                 2.2     TRANSDUCERS 
  133.  
  134.  
  135. In order for a person to interact with a virtual environment, their actions
  136. need to be communicated to the virtual reality generator.  The transducer
  137. converts an action into a form which can be interpreted by a computer. Actions
  138. include movements (of the head, eyes, hands and body), speech and brain
  139. activity. 
  140.  
  141. Movement transducers 
  142.  
  143. The measurement of head movement provides signals which allow the image
  144. generator to produce an output appropriate to where the head is pointing. Head
  145. movement has been measured optically, acoustically, mechanically and
  146. magnetically, or with combinations of these methods.  The most widespread
  147. system is the Polhemus Spasyn system which uses a varying magnetic field to
  148. induce a current in 3 orthogonal coils.  This technique is insensitive to most
  149. interference and only requires a very small sensor to be mounted on the head.
  150. However, its accuracy is affected by metal and most environments have to be
  151. extensively mapped.  Another magnetic system, "The Bird" uses a DC magnetic
  152. field and is gaining popularity because of its lower cost. 
  153.  
  154. Hand movement provides signals which the computer needs to allow the operator
  155. to manipulate objects.  The most popular system was the "Data Glove" which
  156. consists of optical fibers sewn into a tight glove.  Finger movement causes
  157. bending of the fibers and a change in the amount of light which they transmit.
  158. The Mattel Powerglove, a more recent development, uses the same technology.
  159. With the Data Glove, hand movements are measured using a magnetic sensor
  160. mounted on the glove.  The Powerglove uses ultrasonic transmitters and
  161. receivers and a triangulation technique to achieve the same purpose. 
  162.  
  163. A range of "3D mice" are currently available in the market.  The principle of
  164. each is the same, namely to produce multi-axis control inputs into a computer
  165. for the manipulation of virtual objects.  Realizations of these concepts have
  166. been available for some time, having been developed for aviation (eg 4-axis
  167. hand-controllers for helicopters) and other applications (eg control of earth
  168. moving and logging equipment). 
  169.  
  170. Body movement transduction is necessary for a person to move naturally through
  171. the virtual environment.  A body glove, using the same technology as the Data
  172. Glove, has been attempted, but movements are restricted by the wire
  173. connection.  Walking, for example through the design of building, has been
  174. simulated by a steerable treadmill.  A fixed bicycle, rowing boat or car would
  175. provide similar effects for appropriate environments. Currently, large
  176. movements through the virtual environment are commonly achieved by having the
  177. person fly, using hand motions to control the direction and speed of travel. 
  178.  
  179. Eye movements may be of some importance to virtual reality, but probably more
  180. as a control input than as a prerequisite for achieving an effective
  181. simulation. The state of the art for eye movement transducers is quite
  182. advanced, having been driven by medical/psychological research.  Options
  183. include transducing electrical activity around the eye, corneal reflection (of
  184. various sorts) and direct imaging followed by video image processing. 
  185.  
  186. Speech transducers. 
  187.  
  188. Direct Voice Input (DVI) has been under development for a number of years,
  189. driven by potential commercial (word processing) and military (control input)
  190. applications.  Although far from mature technology, existing systems are
  191. capable of recognizing a limited vocabulary and are being marketed for the
  192. home computer market.  DVI in virtual reality may be another tool for
  193. increasing the naturalness with which a person interacts with a machine. 
  194.  
  195. Thought transducers. 
  196.  
  197. Although bordering on the realm of science fiction, some research has been
  198. conducted on the possibility of using "thoughts" (actually, measurable brain
  199. activity) for controlling things.  Some of that research has taken place at
  200. AAMRL, where success was claimed for an experiment in which operators were
  201. trained to conduct a compensatory tracking task using brain electrical
  202. activity.  The potential use of electrical brain activity as a control input
  203. is limited by the lag imposed by the requisite filtering of the raw signals.
  204. The Air Force are interested in this area because of the potential for
  205. monitoring, and having systems respond to, the psychological condition of
  206. their pilots while they are engaged in high-stress activities. It may be
  207. possible to find a use for thought transducers in virtual reality at some time
  208. in the future. 
  209.  
  210.                 2.3     IMAGE GENERATION 
  211.  
  212. Image -  "A reproduction or imitation of the form of a person or a thing.  An
  213. exact likeness."  Visual image generation is just one part of what has to be
  214. achieved.  Artificial stimulation to the other senses must also be considered.
  215.  However, since the image of something in a particular sensory modality is
  216. only as useful as the ability to display to that modality, most effort has
  217. been expended on visual and auditory images. 
  218.  
  219. Visual image generation. 
  220.  
  221. The objectives of visual image generation in virtual reality are similar to
  222. the objectives in aircraft simulation, in terms of complexity and realism.
  223. However, virtual reality can have the added requirement that the user makes
  224. head movements, which means faster scene changes. Effective visual simulation
  225. requires computational complexity (for effective perspective, hidden line
  226. removal etc) and computational speed (for acceptable scene update rates).  The
  227. required computing power is now available in work station level machines.  The
  228. most popular platform is the Silicon Graphics.  Enthusiasts have reported
  229. successful attempts at simple virtual realities using the Amiga PC. 
  230.  
  231. Audio image generation. 
  232.  
  233. Spatially distinct sounds are important attributes of a convincing virtual
  234. reality.  Sounds are subconsciously localized and used by people in the real
  235. world, for perceiving warnings, for distinguishing conversations against a
  236. noisy background (the cocktail party phenomenon) and for orientation.  Several
  237. components of a sound are used to determine its spatial origin.  The time
  238. difference between a sound reaching each of our ears, and the amplitude of the
  239. sound in each ear, are important cues for determining the origin in azimuth.
  240. In addition, the complex folds in our outer ears (pinnea) change the sound
  241. quality on its journey to the cochlea.  It is these changes which allow
  242. localization in elevation, monaural sound localization, and the ability to
  243. distinguish sounds emanating from the front and the back. 
  244.  
  245. To produce a successful virtual auditory world, a space stabilized sound has
  246. to be generated.  This requires a sound source, knowledge of head position,
  247. and a device to alter the sound quality and present the appropriately
  248. transformed sounds to each ear.  Research in auditory sound localization is at
  249. a respectable stage of development, and the relevant principles and data have
  250. been used to produce a variety of 3D sound image generators.  AAMRL have had
  251. experience with two types of auditory image generator, an electro-mechanical
  252. "head box" and a solid state, high speed, digital signal processor. 
  253.  
  254. Two successful solid state devices are the Gehring research device and the
  255. Convolvotron.  Both work on the same principle of providing filters to
  256. simulate the filtering effect of the pinnea on sounds emanating from discrete
  257. locations in space.  Intermediate locations are simulated with some sort of
  258. interpolation.  The change in sound quality produced by the pinnea, as a
  259. function of sound source location, varies across individuals. Therefore, a
  260. device which is designed to suit the "average person" will be unacceptable for
  261. a large part of the population.  The issue of individual head related transfer
  262. functions, or "ear prints" is something for which more development and
  263. research are needed. 
  264.  
  265.  
  266. REFERENCES
  267.  
  268. Vickers, D.L. (1972)  Sorcerer's apprentice: head-mounted display and wand.  
  269. In A Symposium on Visually Coupled Systems: Development and Application.  
  270. Birt, J.A. and Task, H.L. (eds) AMD TR 73-1.
  271.  
  272. Reference to the above work, including a photograph of the equipment, is 
  273. available in:
  274.  
  275. Fisher, S.S.  (1990) Virtual Interface Environments.  In The Art of 
  276. Human-Computer Interface Design, edited by Brenda Laurel, Addison-Wesley 
  277. Publishing Co.
  278.  
  279.